Decision diagrams for the approximate analysis of Markov models
نویسندگان
چکیده
منابع مشابه
analysis of ruin probability for insurance companies using markov chain
در این پایان نامه نشان داده ایم که چگونه می توان مدل ریسک بیمه ای اسپیرر اندرسون را به کمک زنجیره های مارکوف تعریف کرد. سپس به کمک روش های آنالیز ماتریسی احتمال برشکستگی ، میزان مازاد در هنگام برشکستگی و میزان کسری بودجه در زمان وقوع برشکستگی را محاسبه کرده ایم. هدف ما در این پایان نامه بسیار محاسباتی و کاربردی تر از روش های است که در گذشته برای محاسبه این احتمال ارائه شده است. در ابتدا ما نشا...
15 صفحه اولthe application of multivariate probit models for conditional claim-types (the case study of iranian car insurance industry)
هدف اصلی نرخ گذاری بیمه ای تعیین نرخ عادلانه و منطقی از دیدگاه بیمه گر و بیمه گذار است. تعین نرخ یکی از مهم ترین مسایلی است که شرکتهای بیمه با آن روبرو هستند، زیرا تعیین نرخ اصلی ترین عامل در رقابت بین شرکتها است. برای تعیین حق بیمه ابتدا می باید مقدار مورد انتظار ادعای خسارت برای هر قرارداد بیمه را برآورد کرد. روش عمومی مدل سازی خسارتهای عملیاتی در نظر گرفتن تواتر و شدت خسارتها می باشد. اگر شر...
15 صفحه اولAPRICODD: Approximate Policy Construction Using Decision Diagrams
We propose a method of approximate dynamic programming for Markov decision processes (MDPs) using algebraic decision diagrams (ADDs). We produce near-optimal value functions and policies with much lower time and space requirements than exact dynamic programming. Our method reduces the sizes of the intermediate value functions generated during value iteration by replacing the values at the termi...
متن کاملApproximate Equivalence of Markov Decision Processes
We consider the problem of finding the minimal ǫ-equivalent MDP for an MDP given in its tabular form. We show that the problem is NP-Hard and then give a bicriteria approximation algorithm to the problem. We suggest that the right measure for finding minimal ǫ-equivalent model is L1 rather than L∞ by giving both an example, which demonstrates the drawback of using L∞, and performance guarantees...
متن کاملOrdinal Decision Models for Markov Decision Processes
Setting the values of rewards in Markov decision processes (MDP) may be a difficult task. In this paper, we consider two ordinal decision models for MDPs where only an order is known over rewards. The first one, which has been proposed recently in MDPs [23], defines preferences with respect to a reference point. The second model, which can been viewed as the dual approach of the first one, is b...
متن کاملذخیره در منابع من
با ذخیره ی این منبع در منابع من، دسترسی به آن را برای استفاده های بعدی آسان تر کنید
ژورنال
عنوان ژورنال: PAMM
سال: 2007
ISSN: 1617-7061,1617-7061
DOI: 10.1002/pamm.200700833